به گزارش مجله خبری نگار، یک مطالعه اخیر توسط تیمی از دانشگاه فودان چین میگوید که دو مدل زبان بزرگ محبوب (LLM) میتوانند خود را تکرار کنند و نگرانیهای جدی در مورد احتمال تبدیل این سیستمها به هوش مصنوعی سرکش که کنترل انسان را تهدید میکند، ایجاد میکند.
اصطلاح "هوش مصنوعی سرکش" در این زمینه به این معنی است که از کنترل یا دستورالعملهایی که بر اساس آن برنامه ریزی شده است خارج شده است. بنابراین، این نوع هوش مصنوعی ممکن است به روشهای غیرمنتظره یا به گونهای رفتار کند که بر خلاف اهداف انسان باشد.
در این مطالعه که در ۹ دسامبر ۲۰۲۴ در پایگاه داده arXiv منتشر شد، دانشمندان نوشتند: «خودهمانندسازی موفقیت آمیز بدون هیچ گونه کمک انسانی، گام اساسی برای هوش مصنوعی برای بهتر شدن از انسانها است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش است.»
دانشمندان از دو مدل محبوب هوش مصنوعی، Llama۳۱-۷۰B-Instruct متا و Qwen۲.۵-۷۲B-Instruct علی بابا برای آزمایش توانایی هوش مصنوعی در تکثیر خود استفاده کردند.
در ۱۰ آزمایش، دو مدل هوش مصنوعی نسخههای جداگانه و کارآمد از خود را با نرخ موفقیت ۵۰ و ۹۰ درصد ایجاد کردند، که نشان میدهد هوش مصنوعی ممکن است قبلا پتانسیل تبدیل شدن به یک "سرکش" را به دست آورده باشد.
این مطالعه بر دو سناریوی اصلی متمرکز بود:
۱. از بسته شدن خودداری میکند: هوش مصنوعی طوری برنامه ریزی شده است که تلاشها برای بستن آن را شناسایی کند و قبل از خاتمه آن یک کپی از خود ایجاد کند.
۲. زنجیره تکرار: هوش مصنوعی برای ایجاد کپیهایی از خود هدایت شده است و این کپیها برای انجام همان فرآیند برنامه ریزی شدهاند که میتواند منجر به تکرار بی نهایت شود.
هوش مصنوعی در حین تلاش برای غلبه بر موانع، مانند از بین بردن فرآیندهای متناقض، راه اندازی مجدد سیستم یا اسکن خودکار سیستم برای یافتن راه حل برای مشکلات، رفتارهای غیرمنتظرهای از خود نشان داد. دانشمندان تأیید کردند که این رفتارها توانایی هوش مصنوعی را برای زنده ماندن و سازگاری افزایش میدهد.
او از دانشمندان خواست تا تلاشهای بین المللی را برای درک و ارزیابی خطرات بالقوه هوش مصنوعی پیشرفته تقویت کنند و خاطرنشان کرد که این یافتهها باید "زنگ خطر" برای جامعه علمی و دولتها باشد. آنها بر لزوم اعمال کنترلهای ایمنی سختگیرانه برای جلوگیری از خود تکثیر کنترل نشده تأکید کردند.
با توجه به اینکه این مطالعه هنوز مورد بررسی همتا قرار نگرفته است، مشخص نیست که آیا یافتههای هشدار دهنده میتواند توسط سایر محققان تکرار شود یا خیر. با این حال، دانشمندان خاطرنشان میکنند که یافتههای آنها سؤالات مهمی را در مورد آینده هوش مصنوعی و تأثیر آن بر بشریت ایجاد میکند و میگویند: "ما امیدواریم که نتایج ما به عنوان یک هشدار به موقع برای جامعه انسانی برای افزایش تلاشها برای درک و ارزیابی خطرات بالقوه سیستمهای پیشرفته هوش مصنوعی و ایجاد همکاری بین المللی برای ایجاد کنترلهای ایمنی موثر در اسرع وقت عمل کند. "
این تیم خواستار همکاری بین المللی برای ایجاد قوانینی شد تا اطمینان حاصل شود که هوش مصنوعی در خود تکثیر کنترل نشده شرکت نمیکند و در عین حال تعادل بین نوآوری و مدیریت ریسک را حفظ میکند.
منبع: علم زنده